
超10秒高分辨率,北大Open Sora视频生成更强了,还支持华为芯片
超10秒高分辨率,北大Open Sora视频生成更强了,还支持华为芯片北大团队联合兔展发起的 Sora 复现计划,现在有了新成果。
北大团队联合兔展发起的 Sora 复现计划,现在有了新成果。
在上个月推出视频生成模型 Sora 后,就在昨天,OpenAI 又发布了一系列创意工作者借助 Sora 进行的创作,效果极为惊艳。毫无疑问,就生成质量,Sora 是迄今为止最强的视频生成模型,它的出现不仅会直接对创意行业带来冲击,也会影响对机器人、自动驾驶领域的一些关键问题的解决。
随着 Sora 的成功发布,视频 DiT 模型得到了大量的关注和讨论。设计稳定的超大规模神经网络一直是视觉生成领域的研究重点。DiT [1] 的成功为图像生成的规模化提供了可能性。
2月16日,OpenAI 发布了视频生成领域的重磅模型 —— Sora。Sora 对 Scaling Law 的信仰及其突破性的技术创新,使它持续保持领先地位。同时,也再次证明了“大力出奇迹”依然适用于文生视频领域。
自理海大学、微软研究院的研究者提出了一种多智能体框架 Mora,该框架整合了几种先进的视觉 AI 智能体,以复制 Sora 所展示的通用视频生成能力。
OpenAI 的野心可不仅限于在 TikTok 上发短视屏。自从 OpenAI 推出自动生成视频的 Sora 以后,很多人预测好莱坞可能要被 AI 代替了。现在,这家公司可能真的要走上这条路了。
下一步是智能体?随着 ChatGPT、GPT-4、Sora 的陆续问世,人工智能的发展趋势引起了广泛关注,特别是 Sora 让生成式 AI 模型在多模态方面取得显著进展。人们不禁会问:人工智能领域下一个突破方向将会是什么?
今年 2 月随着 Sora 的横空出世,大家再一次把目光聚集到 OpenAI。不仅如此,去年亮相的 ChatGPT、GPT-4,更是把 AI 直接带入到生成式人工智能领域。作为一家引领科技潮流的机构,大家自然对其方方面面都产生好奇。
不久前 OpenAI Sora 以其惊人的视频生成效果迅速走红,在一众文生视频模型中突出重围,成为全球瞩目的焦点。继 2 周前推出成本直降 46% 的 Sora 训练推理复现流程后,Colossal-AI 团队全面开源全球首个类 Sora 架构视频生成模型 「Open-Sora 1.0」,涵盖了整个训练流程,包括数据处理、所有训练细节和模型权重,携手全球 AI 热爱者共同推进视频创作的新纪元。
一个月前(2月15日),Sora和 Gemini 1.5 同时推出,这个故事很多人都听过了,Google 被冠以 AI 界汪峰的名头。人们纷纷震惊于 Sora 的强大,讨论 Sora 是不是世界模型。而 Gemini 1.5 的第一个模型 Gemini 1.5 Pro 在发布后没多久就逐渐无人问津了。